NON à la vidéosurveillance algorithmique généralisée voulue par le gouvernement Barnier

Destinataire(s) : M. Michel Barnier, premier ministre
NON à la vidéosurveillance algorithmique généralisée voulue par le gouvernement Barnier

Depuis plusieurs mois, je mets en garde contre le rognage croissant de nos libertés organisé méthodiquement sous le prétexte de « situations exceptionnelles ». 

Le procédé est toujours le même : une mesure liberticide est « expérimentée » à titre prétendument exceptionnel et provisoire… puis admise et généralisée dans la foulée.

Sans vote, ni consultation, ni consentement populaire.

C’est précisément ce qui est en train de se passer avec la vidéosurveillance algorithmique.


La « loi JO 2024 », cheval de Troie de la vidéosurveillance intrusive

Votée en mai 2023, la « loi JO 2024 » a acté le recours à des méthodes de surveillance particulièrement intrusives telles que le scanner corporel, et la VSA, la vidéosurveillance algorithmique

Déployée « exceptionnellement » sous prétexte des Jeux Olympiques de Paris 2024, elle s’apprête donc à être généralisée par le gouvernement du nouveau premier ministre Michel Barnier : 

capture-ecran2024-10-02-162142.png


Plus c’est gros plus ça passe ! 

Les JO de Paris auront été un vrai cheval de Troie faisant entrer une technologie intrusive dans notre espace public, dans notre quotidien.  

Il est inquiétant de constater que personne, dans les médias mainstream, ne semble saisir la gravité de ce qi est en train de se jouer. 

Cette décision, prise sans consultation publique, marque une étape dangereuse vers une société de surveillance généralisée

Derrière l’argument de la sécurité se cache en effet une réalité bien plus inquiétante.


Qu’est-ce que la surveillance algorithmique et pourquoi est-ce une atteinte gravissime à nos libertés fondamentales ? 

En avril 2024, Amnesty international a émis une alerte préoccupante sur cet outil de surveillance intrusif. 

« Des caméras dopées à l’intelligence artificielle vont désormais passer au crible, en direct, vos moindres mouvements. Marcher à contresens d’une foule aux abords d’un stade parce que vous rejoignez vos amis pourra faire de vous une personne suspecte. Ce qui aura analysé votre mouvement : un algorithme. »


jo-2024-pourquoi.png


Amnesty international déjà il y a six mois prédisait : 

« Ce sont les algorithmes qui vont identifier des situations considérées comme « anormales ». Or, comment définir ce qui est la norme ? (…)  Comment être sûr que des mesures dites d’« exception » ne vont pas se pérenniser ? »

Eh bien, nous y sommes. 

Il n’aura pas fallu attendre un mois après la fin des Jeux Paralympiques (le 8 septembre), qui justifiaient encore le recours je le rappelle « exceptionnel » à la VSA, pour que cet outil intrusif menace de s’ancrer définitivement dans notre quotidien.


Nous devons, de toutes nos forces, refuser ce recul supplémentaire effarant de l’état de droit. 


Les gouvernements se succèdent, les méthodes et les objectifs restent les mêmes : une réduction de l’état de droit à la portion congrue 

Gouvernement Castex, gouvernement Borne, gouvernement Attal, et maintenant gouvernement Barnier.

Ces gouvernements successifs changent de tête, mais pas de visage : celui de pourfendeur acharné de l’état de droit en France

Nous passons en effet d’un état de droit, où chaque individu est libre dans les limites des lois, à une société où chacun est suspecté a priori

En automatisant la surveillance des comportements, l’État nous pousse vers un monde où nos faits et gestes sont constamment analysés par des machines, sans transparence ni contrôle suffisant.


Qui contrôle ces algorithmes ? 

La vidéosurveillance algorithmique (VSA) consiste à utiliser des caméras équipées d'intelligence artificielle pour analyser automatiquement les comportements dans les lieux publics. 

Ces algorithmes sont capables de détecter des « anomalies » ou comportements jugés suspects, comme des mouvements de foule ou des gestes inhabituels.


Mais qui contrôle ces algorithmes ? 

La décision de déléguer cette surveillance à des machines est d'autant plus préoccupante que les biais algorithmiques sont bien documentés.

Actuellement, il n'existe pas de cadre clair définissant qui supervise leur fonctionnement, ni comment leurs décisions sont prises ou corrigées. 

Ces outils automatisés peuvent analyser nos faits et gestes en continu, mais qui en garantit la transparence, l'impartialité, ou même l'absence de dérives ? 


Sans supervision humaine, indépendante et régulière, ces algorithmes risquent de prendre des décisions arbitraires, amplifiant les biais et portant atteinte aux libertés fondamentales.


Nous ne sommes pas des rats de laboratoire

La généralisation de la vidéosurveillance algorithmique transforme les citoyens en sujets d'expérimentation, exactement comme des rats de laboratoires vivant sous l’œil permanent d’observateurs scrutant leurs moindres faits et gestes : où ils vont, avec qui, ce qu’ils mangent, qui sont leurs partenaires sexuels, etc.


Vous ne devez pas accepter de vivre sous l'œil constant d'algorithmes qui analysent et évaluent vos comportements comme des cobayes sous observation

Cette technologie, déployée sans débat démocratique suffisant ni étude d'impact sur les droits humains, vous place dans une situation d'insécurité juridique et sociale. 


Nos vies privées et nos libertés ne doivent pas être le terrain d'expériences de surveillance technologique, menées sans notre consentement éclairé.


De la surveillance à la censure, et de la censure à l’autocensure

Ce système pose un danger pour les libertés fondamentales, notamment la liberté de manifestation, la liberté d’expression et la liberté de mouvement. 

Le risque de dérives est immense, et la tentation de surveiller et punir des citoyens pour des comportements jugés « anormaux » n’a jamais été aussi forte.

Il y a aussi, et c’est probablement l’un des objectifs de cette mesure, une ambition de censure et d’autocensure, comme l’explicite Amnesty international : « ce type de technologie peut avoir un réel effet dissuasif sur les libertés. Le simple fait de se savoir surveillé peut conduire les personnes à modifier leurs comportements, à s’auto-censurer et à ne pas exercer certains droits. »


Et vos données personnelles, on en parle ? 

Votre vie privée et celle de millions de citoyens est en jeu. 

Sous couvert de sécurité, la VSA permet à des algorithmes de suivre et d’analyser vos déplacements et comportements, sans garantie que ces données ne soient pas détournées ou mal utilisées.

Comme le souligne Amnesty international, « le fait que des algorithmes analysent en direct les comportements des individus repose sur une collecte de données personnelles préoccupante quant au respect du droit à la vie privée. Toute surveillance dans l’espace public est une ingérence dans le droit à la vie privée. Pour être légale, une telle ingérence doit être nécessaire et proportionnée. »

La vidéosurveillance algorithmique repose sur la collecte massive de données personnelles, comme nos déplacements et nos comportements en public. 

Ces informations, sensibles par nature, risquent d’être stockées, analysées et potentiellement partagées sans notre consentement explicite. 

Sans garanties solides de protection, nos données pourraient être exploitées ou détournées, augmentant le risque de violations de la vie privée.


Il est impératif d’établir des mesures strictes pour garantir que ces technologies respectent les droits à la confidentialité et à la protection des données.

Car que deviendront ensuite ces informations ?

Nous ne le savons pas officiellement. 

Ce que nous savons, en revanche, c’est que la Chine associe ce procédé à la reconnaissance faciale – déjà également utilisée dans certaines villes de France – et au crédit social

Nous sommes donc, en termes de libertés publiques, actuellement au seuil du modèle chinois. 

Au seuil du précipice.


La France ouvre la boîte de Pandore

Cette situation préoccupante est inédite en Europe. 

La France est en effet la première nation européenne à déployer à grande échelle cet arsenal de technologies intrusives, pilotées par intelligence artificielle

C’est ce qui pousse, une fois encore, Amnesty International, à parler de « boîte de Pandore ». 

Une fois cette technologie en place, il sera difficile de revenir en arrière. 

Ce modèle de surveillance de masse, inspiré de systèmes similaires en Chine, fait craindre un basculement vers un contrôle social omniprésent, où chaque mouvement, chaque comportement sera scruté, noté et potentiellement sanctionné

Ce type de contrôle systématique et algorithmique pourrait progressivement étouffer nos libertés, nous rapprochant toujours plus d'un modèle de société autoritaire, où le contrôle et la surveillance permanents ne seront plus l’exception, mais la norme


Vous devez refuser ce basculement vers une société de surveillance. 

En France, la sécurité ne doit pas servir de prétexte à la mise en place d’un contrôle permanent sur les citoyens.

Exigeons :

  • la suspension immédiate de la généralisation de la vidéosurveillance algorithmique ;
  • un débat public sur les risques pour nos libertés et notre vie privée ;
  • la mise en place d’un cadre légal strict garantissant la protection des droits individuels et des données personnelles.

Ensemble, défendons une société libre et respectueuse des droits humains, où la sécurité ne rime pas avec surveillance de masse !

Signez et partagez cette pétition pour faire entendre votre voix contre cette dérive !

Rodolphe Bacquet 



Lyon, le 2 octobre 2024

À Monsieur Michel Barnier, Premier Ministre de la République française

Objet : Demande de renonciation à la généralisation de la vidéosurveillance algorithmique


Monsieur le Premier Ministre,

La vidéosurveillance algorithmique, déployée à titre provisoire durant les JO de Paris 2024, et que votre gouvernement a prévu de généraliser, suscite une profonde inquiétude. 

Cette inquiétude, je la partage avec les nombreux signataires de ma pétition vous demandant de renoncer à cette mesure liberticide. 

Quelle est-elle ? 

La généralisation de la VSA que vous prévoyez marque une transition dangereuse vers une société de surveillance permanente, menaçant nos libertés fondamentales.

Comme l’a souligné Amnesty International, cette technologie présente de graves risques pour le respect de la vie privée de nos concitoyens, l’état de droit et la protection de nos données personnelles. 

Les algorithmes, souvent biaisés, pourraient porter atteinte aux droits des citoyens, sans cadre juridique clair et transparent et insidieusement créer une société de peur et d’autocensure généralisées dans l’espace public. 

Ce basculement vers une surveillance de masse va à l’encontre des principes de notre société de droit.

Je vous exhorte à suspendre cette généralisation, à ouvrir un débat public et à garantir que toute mesure respecte scrupuleusement nos libertés individuelles. La sécurité ne doit pas être obtenue au prix de nos droits.

Dans l’attente de votre réponse, veuillez agréer, Monsieur le Premier Ministre, l'expression de ma haute considération.

Auteur : Rodolphe Bacquet

<% $t("Number of signatures:") %>

En signant la pétition j'accepte que Les Lignes Bougent traite mes données à des fins de gestion des signatures et des commentaires. J’accepte également d’être informé(e) des actions citoyennes initiées via Les Lignes Bougent. Pour en savoir plus sur ces traitements et sur mes droits, je consulte la politique de confidentialité. Tout commentaire doit respecter la charte des contenus de la communauté LLB. Lire la charte.
<% $t("Hour") %> <% $t("Postal Code") %> Nom
<% signature.lapse %> <% signature.details.postalCode %> <% signature.details.name %> <%signature.details.surname %>

Commentaires